ENTREPRISE - Gestion

ENTREPRISE - Gestion
ENTREPRISE - Gestion

Si toutes les entreprises peuvent se définir comme des unités élémentaires de production, le concept d’«entreprise» couvre des dimensions, des statuts et des structures singulièrement divers.

Le vocable est ambigu: il vise ou visait encore voici peu aussi bien la «libre entreprise», de style «occidental», que l’entreprise socialiste (U.R.S.S. et démocraties populaires de naguère), ou encore, comme pour la France, un établissement dont l’activité dépendait certes du marché, mais recevait du plan des informations, des sollicitations, des pressions et subissait de l’État d’innombrables contraintes.

L’entreprise française embrasse des unités dont les modes de fonctionnement, les dimensions et, selon les époques, les finalités ne sont guère comparables. Le secteur public, dont la géométrie et la consistance ont connu de fortes évolutions depuis le début des années quatre-vingt (établissements publics à caractère industriel et commercial, sociétés nationales d’économie mixte, sociétés à capital majoritairement public), rassemblait, au 1er janvier 1991, environ 2 500 entreprises (filiales et sous-filiales comprises); celles-ci employaient 1 348 000 salariés et réalisaient, dans les diverses branches industrielles (hors énergie, agroalimentaire et bâtiment et travaux publics), près de 20 p. 100 du chiffre d’affaires de ces dernières. La période récente a vu les entreprises du secteur public affirmer fréquemment la nécessité d’exercer leurs activités économiques selon des exigences de rentabilité naguère réservées aux seules entreprises privées. La taille des premières, généralement importante, les distingue cependant au sein d’une économie française qui compte une immense majorité de petites entreprises: sur 3 125 000 établissements, au 1er janvier 1989, 94 p. 100 employaient moins de dix salariés. À la même date, les mille plus importantes entreprises du pays, en termes d’effectifs, employaient près de 3,8 millions de personnes (33 p. 100 du total des effectifs), tandis que les mille premières en termes de chiffre d’affaires représentaient 38 p. 100 des chiffres d’affaires cumulés de l’ensemble des entreprises soumises aux bénéfices industriels et commerciaux.

La classification traditionnelle entre «petites», «moyennes» et «grandes» entreprises privées n’est d’ailleurs pas fondée sur des critères satisfaisants. On peut en effet prendre en considération la puissance financière résultant de l’importance des capitaux propres figurant au passif des bilans publiés; ou la puissance commerciale, en tenant compte seulement du chiffre d’affaires; ou la dimension sociale, en dénombrant les salariés. D’autres clivages, moins évidents, résulteraient du statut juridique (sociétés de personnes et sociétés de capitaux, mais aussi, parmi ces dernières, sociétés anonymes et S. à R.L., S.I.C.A.V. et sociétés en commandite par actions, etc.), du statut fiscal (entreprises assujetties ou non à l’impôt sur les sociétés, entreprises admises ou non au bénéfice du forfait, etc.), des liens économiques ou financiers et de leur zone d’influence (holdings, participations, cartels, etc.), des caractères proprement sociologiques (entreprises dites «familiales» et entreprises de type bureaucratique, management «à l’américaine» et gestion paternaliste, etc.), enfin des liens avec l’État (groupes de pression), avec l’étranger (succursales, filiales), et de la valeur patrimoniale, elle-même complexe (valeur de capitalisation boursière, valeur mathématique de rentabilité, valeur de fusion, etc.). D’autres paramètres de classification pourraient intervenir: le degré de spéculation, d’intégration, d’autonomie financière, le nombre et la variété des produits et sous-produits fabriqués ou commercialisés, la part du marché contrôlée par l’entreprise, l’importance de son cash-flow, de son taux annuel d’expansion, le nombre et la répartition géographique de ses établissements, etc. Parmi les grandes entreprises, l’écart de dimension entre l’affaire américaine et l’affaire européenne était encore très grand au début des années soixante-dix. Ce n’est plus vrai aujourd’hui, si l’on se réfère aux classements selon le chiffre d’affaires publiés annuellement (Fortune , L’Expansion , Le Nouvel Économiste , etc.): quarante et un des cent premiers groupes industriels mondiaux étaient, en 1990, situés en Europe communautaire, contre vingt-huit aux États-Unis et dixhuit au Japon. La France (dix groupes) venait après l’Allemagne fédérale (treize groupes), avant le Royaume-Uni (sept), l’Italie (cinq), les Pays-Bas (trois), l’Espagne (deux) et la Belgique (un); il est vrai que le premier des six groupes français classés parmi les cinquante plus importants dans le monde, ne se trouvait qu’en vingt-huitième position (Elf Aquitaine).

En fait, l’entreprise peut être appréhendée de plusieurs manières. Pour l’économiste, elle résulte de l’agencement de facteurs différents: travail, capital, nature; pour le sociologue, elle est une distribution de rôles et de statuts; pour le financier, elle est une source de profits et d’investissements; pour le juriste, elle est une variété de contrat; pour la puissance publique, elle est un contribuable, un instrument d’expansion économique et le siège de divers conflits sociaux (grèves, revendications diverses); pour l’opinion publique, elle est d’abord une «image». La gestion d’une entreprise ne peut donc pas revêtir la même signification pour tous. Derrière les techniques subsiste une dimension «affective» considérable: aucun entrepreneur capitaliste ne prétend et ne croit travailler exclusivement pour le profit, mais aucun chef d’entreprise ne pourrait durablement assumer ce rôle en méprisant le profit. Cependant l’entreprise doit à chaque instant composer avec l’État, ses dispositions fiscales, monétaires ou financières. Cette circonstance ainsi que l’éthique de ses dirigeants, les caprices de sa clientèle, les exigences de son banquier, les tribulations de la conjoncture infléchissent la pure rationalité de tous ses calculs.

Car il n’est pas de définition univoque de la rationalité économique et, donc, de la meilleure démarche pour atteindre le profit maximal. Le style de gestion n’est pas un, qui permettrait de choisir à coup sûr entre les différentes stratégies du profit maximal: à court terme et à long terme, en visant le plus avec les plus grands risques (maximax) ou un minimum aux moindres risques (minimax), en refusant ou en intégrant tel ou tel type de contrainte extra-économique, comme le climat des relations humaines dans l’entreprise, le degré de satisfaction des salariés, des cadres, des actionnaires, des obligataires, des fournisseurs et des clients, la sécurité des emplois, le prestige de la marque, l’indépendance financière et politique, la pérennité de l’entreprise dans un marché aux dimensions mondiales.

Ainsi, le «management» moderne, l’application systématique de la plupart des techniques scientifiques de gestion résultent-ils de l’«environnement». Malgré une très réelle généralisation de la réflexion sur l’entreprise, au cours des années soixante-dix et quatre-vingt, il faut reconnaître qu’en Europe les grands groupes intégrés, capables de s’adapter presque chaque jour à l’innovation, sinon d’en permettre le déploiement, sont les plus à même de mettre en œuvre toutes les possibilités ouvertes par les techniques nouvelles de management.

En fin de compte, si beaucoup d’éléments socio-économiques interviennent pour qualifier la gestion d’une entreprise – en particulier sa rentabilité et son taux d’expansion, sa vulnérabilité commerciale et financière et l’importance de ses responsabilités sociales –, c’est encore la structure de pouvoir qui paraît constituer le critère décisif. Il y a déjà longtemps que théoriciens et praticiens de l’entreprise, tirant les leçons de l’évolution même des marchés, se sont accordés à la fois sur l’inéluctable mouvement de concentration qui aboutit à des unités de très grandes dimensions et sur la mise en place, en conséquence, d’une gestion décentralisée en regard de laquelle le mode de commandement traditionnel, rigide et centralisateur, encore familier aux petites entreprises de type paternaliste, paraît définitivement périmé. Cette évolution du pouvoir, nullement incompatible d’ailleurs avec l’unité de commandement, traduit sous des formes diverses l’effacement relatif à la fois des actionnaires, de la main-d’œuvre non spécialisée et du «patron» omnipotent, au bénéfice des dirigeants et des cadres supérieurs. C’est, comme on a pu l’écrire, l’«ère des organisateurs» qui s’est installée. Quelle que soit son appellation – décentralisation des pouvoirs, «direction participative par objectifs», technocratie –, elle sanctionne la fin progressive de l’empirisme, du seul «flair» dans les affaires, de la petite dimension (sauf dans certains secteurs, telles les prestations de services), du népotisme familial, de la primauté de la fabrication sur la vente, du financement de l’expansion à partir de capitaux en majorité étrangers au bénéfice d’exploitation, de la hiérarchie rigide, de la rentabilité limitée, de l’esprit routinier et conservateur.

On peut penser que la gestion des entreprises (management), qui ressemblait assez à un art à tous les niveaux de responsabilité au siècle dernier, n’est restée telle qu’au sommet du commandement, là où il n’est désormais question que de stratégie. Pour ce qui est de la tactique, la plupart des aspects modernes de la gestion des entreprises relèvent de la science et plus précisément de l’interdisciplinarité entre des sciences bien différentes: technologie, marketing, statistique, économie, droit commercial et bancaire, fiscalité, mathématiques financières, calcul des probabilités, comptabilité analytique, psychosociologie et informatique. Une très forte culture générale précédant une spécification très poussée sera de plus en plus nécessaire aux cadres supérieurs et, dans une moindre mesure, au middle-management . La formation permanente de ces cadres (recyclage) est largement entrée dans les mœurs.

Parmi les caractères majeurs de cette évolution récente du management, on retiendra: en premier lieu, l’effondrement d’une conception militaire, bureaucratique, ou paternaliste de la gestion, au bénéfice d’un style différent de relations humaines, procédant de la décentralisation, des responsabilités et des pouvoirs; en second lieu, l’apparition d’une exigence qui prime désormais tous les problèmes de production, à savoir la nécessité de vendre et de savoir, d’avance, à qui, quand et par quels moyens, dans un double contexte de marchés de plus en plus ouverts et de demande solvable rare. Cette priorité de la vente sur la production a ainsi engendré une science à peu près inconnue dans l’Europe d’avant guerre: le marketing. Mais promouvoir l’expansion signifie aussi qu’on transformera complètement les relations dans l’entreprise, en adaptant celle-ci aux découvertes de la dynamique des groupes. L’impératif de l’innovation, l’adaptation de fréquence élevée à un environnement mouvant, la compétition sur une échelle élargie, l’établissement du contrôle budgétaire et l’utilisation de la comptabilité analytique, les préoccupations sociales du chef d’entreprise, enfin et surtout l’extraordinaire développement de l’informatique: toutes ces circonstances influent sur les structures mêmes de pouvoir dans l’entreprise.

1. Évolution des conceptions

Fayolisme et taylorisme

On s’accorde parfois à considérer l’ingénieur français Henri Fayol (1841-1925) comme le père de l’administration scientifique des entreprises. Ses observations concernant la prévention du gaspillage et les excès de la centralisation le conduisirent à formuler dans son principal ouvrage, Administration industrielle et générale (1916), les principes constitutifs de la théorie industrielle du commandement: prévoir, organiser, commander, coordonner, contrôler. Fayol pensait que la fonction technique avait atteint, à son époque, un point d’achèvement, que les fonctions comptable, commerciale et financière de l’entreprise ne posaient pas de problèmes majeurs et qu’en conséquence la croissance de l’entreprise, la promotion des unités de grandes dimensions accorderaient une place prééminente à la fonction administrative. Ses contributions concernant l’unité de commandement, la présence permanente de l’autorité et la délégation de pouvoir, la limitation optimale pour chaque agent de l’entreprise du nombre de ses subordonnés (quatre ou cinq), l’organigramme «pyramidal» procèdent de cette conviction. Mais Fayol ne semble pas avoir soupçonné les processus d’innovation et d’obsolescence, non plus que les progrès de la psychosociologie. En reléguant la direction commerciale à une fonction postérieure à la production, en concevant sans l’écrire de manière explicite l’entreprise comme une armée de type napoléonien, il faisait l’apologie d’une structure bureaucratique mieux accordée à l’univers du XIXe siècle qu’à celui du XXe siècle. Son œuvre n’est en aucune façon celle d’un stratège.

Son contemporain américain, Frederic Winslow Taylor (1856-1915), dont le principal ouvrage, Scientific Management , publié en 1909 (traduit en français en 1911) précède de sept ans à peine le livre de Fayol, est autrement réaliste. Il faudra attendre l’expérience de Hawthorne (1928) pour que sa doctrine soit remise en question. Comme Fayol, Taylor est ingénieur: on lui doit d’ailleurs la découverte des aciers à coupe rapide. Sa doctrine, entreprise d’abord à la Midvale Steel Company puis à la Bethleem Steel Corporation, devait connaître un retentissement considérable; il n’est pas excessif d’écrire qu’elle a inspiré toute la gestion industrielle aux États-Unis jusqu’à la crise de 1930. La ligne de Taylor (taylorisme) est d’ailleurs simple et son inspiration véritablement cartésienne: elle revient à rechercher et à définir les conditions les plus rationnelles de production. C’est donc en assignant à la direction le soin de préparer méthodiquement le travail qui sera confié aux exécutants, en supprimant l’individualisme et la spontanéité dans l’exécution, en divisant les tâches et en instituant une sélection systématique de la main-d’œuvre que Taylor parviendra à des gains exceptionnels de productivité, dans la manipulation des gueuses de fonte, la pose des briques d’abord et puis, peu à peu, dans toutes les formes subalternes de production. Cette démarche implique que tous les postes et les processus de travail soient rigoureusement analysés, que les gestes élémentaires, la forme et la mise à disposition des outils, l’ordre des opérations, après le passage au crible de toutes les manières possibles de procéder, fassent l’objet d’instructions inflexibles. Enfin, elle implique que, sur la base de temps «standards» prédéterminés pour chaque type de tâche, un système dit de «salaires stimulants» soit établi, permettant de pénaliser ou de licencier les ouvriers n’atteignant pas les «standards» et de distribuer des primes à ceux qui les dépassent. Le taylorisme a connu entre les deux guerres un succès sans précédent. Le gain de productivité qui en a résulté a pu encourager, à une époque moins lointaine, une sorte de «néo-taylorisme» dont les conséquences sociales, à partir des mêmes principes, s’avèrent curieusement différentes: l’ouvrier qui accepte de sacrifier la spontanéité n’est pas seulement récompensé par un accroissement de salaire mais aussi, à salaire égal, par une réduction de la durée de travail. La doctrine repose cependant sur un postulat aujourd’hui controversé: l’intérêt matériel qui gouverne le comportement des hommes au travail et rien d’autre. Toute la sociologie d’entreprise moderne tend à ruiner cette conception et, de ce fait, l’œuvre de Taylor, à son tour, a bien vieilli.

Bien qu’il n’ait pas été un homme d’affaires, Max Weber (1864-1920) a été l’un des premiers à définir une typologie du commandement, qui vaut pour la gestion des entreprises comme sur le plan politique ou militaire. Les trois formes wébériennes du pouvoir: l’autorité charismatique (le leader perçu comme «sorcier» ou «magicien» capable de miracles), traditionnelle (fondée sur la croyance en des normes absolues, permanentes et historiques) et bureaucratique (reposant sur des protections juridiques formalisées) inspireront la plupart des recherches pionnières sur les fondements et la légitimité du pouvoir du chef d’entreprise (Redl, French et Raven, Goldhammer, Shils, Thompson aux États-Unis, Meigniez ou Crozier en France par exemple). Ces travaux ont fait de la conception paternaliste de l’entreprise une simple variété dans un genre et non plus le seul modèle universel.

La sociologie industrielle moderne

La rupture avec les idées de Taylor date cependant de la période 1927-1929 (expérience dite de Hawthorne, du nom d’une usine de la Western Electric à Chicago). C’est principalement à Elton Mayo (1880-1949) et à ses collaborateurs de la Harvard Business School qu’on doit la naissance de la sociologie industrielle moderne. «L’expérience de Hawthorne, écrit Joseph Massie, eut essentiellement pour effet de porter un défi aux hypothèses «monomotivationnelles» de l’école de l’organisation scientifique du travail. Le travailleur ne pouvait plus être considéré dès lors comme un prolongement de sa machine» (allusion à Taylor). Les difficultés de l’usine de Hawthorne avaient attiré l’attention des spécialistes de l’organisation tayloriste du travail. On avait d’abord cru qu’il suffirait de «rationaliser» les conditions de travail pour accroître les rendements, en particulier en procédant à des recherches sur les conditions de travail ainsi que sur les conditions optimales d’éclairage.

Les expériences firent varier l’intensité de l’éclairage dans les ateliers depuis un maximum jusqu’à un seuil si faible (0,3 lux) que la lumière y était celle d’un clair de lune. Or, à la suite de ces mesures, tous les ateliers enregistrèrent des gains de productivité importants (jusqu’à 25 p. 100). Les gains les plus forts concernaient paradoxalement les ateliers de référence les plus mal éclairés. Il devenait donc impossible, dans la ligne de Taylor, d’en conclure que l’éclairage le plus rationnel correspondait à la plus faible intensité. Mayo et son équipe, contrôlant tous les facteurs physiques de la productivité dans des conditions expérimentales rigoureuses, étaient bientôt conduits vers une autre explication scientifique, longuement commentée depuis lors par Roethilsberger et Dickson: le gain de productivité ne résultait pas de l’amélioration des conditions de travail mais du changement dans les relations sociales entre la direction et les ouvrières et, par suite, dans les relations des ouvrières entre elles. La preuve en était bientôt administrée: de 1927 à l’automne 1928, la direction accorde au personnel tous les avantages matériels demandés et la productivité monte régulièrement par paliers. Mais, à la fin de 1928, sur l’instigation de Mayo, on enlève progressivement aux ouvrières les avantages acquis et la productivité, après une légère chute, croît à nouveau à un palier plus élevé (effet Mayo); c’est qu’on a profondément modifié la structure du groupe. Cette date peut être regardée comme décisive dans l’histoire du management: désormais, on concevra que les seuls avantages matériels (salaire, ambiance de travail) ne suffisent pas à l’ouvrier pour qu’il donne le meilleur de lui-même. Sa part de responsabilité et son rôle dans la structure sociale de l’entreprise deviennent déterminants quant à son implication.

Quand Peter Drucker publiera en 1954 sa théorie de l’administration des entreprises (The Practice of Management ), il n’oubliera pas la leçon de Mayo: le rôle du directeur est de «faire son travail en faisant travailler les autres» et ses tâches sont, à la fois, de diriger l’affaire, de diriger les cadres supérieurs («ressource la plus rare, la plus chère, la plus périssable», avait déjà écrit Ford) et de diriger les exécutants. Drucker dénonce la faillite de cette conception selon laquelle la fonction de l’entreprise serait la maximation du profit. Ses deux fonctions essentielles restent, selon lui, la distribution et l’innovation. Le profit n’est que la mesure de l’efficacité et le moyen de se procurer des capitaux neufs. La différence de productivité entre les entreprises américaines et européennes résulte de la juste notion d’emploi, de la combinaison optimale des facteurs de production (main-d’œuvre et capital) et de l’exacte appréciation des processus moyens: acheter ou fabriquer, fabriquer ou sous-traiter, distribuer soi-même ou déléguer la distribution, etc. Drucker ne fait pas seulement, à l’américaine, l’apologie du risque; il ne se contente pas de définir l’entreprise privée comme devant être gérée dans un style essentiellement antibureaucratique; il formule, peut-être pour la première fois, la conception moderne de la « direction par objectifs», ceux-ci étant clairement définis et explicités en particulier par le contrôle budgétaire; il esquisse aussi le portrait du chef d’entreprise moderne: un stratège et un homme de caractère, un leader qui «voit les qualités des autres plutôt que leurs défauts», un homme qui sait sacrifier le court terme au long terme, le gain tactique à l’avantage de ce que Drucker appelle la «direction par poussées».

Une entreprise et une stratégie nouvelles

À la même époque, les préoccupations des entreprises françaises posent autant de problèmes spécifiques. François Bloch-Laîné a dénoncé en 1963 les contradictions essentielles de celles-ci (Pour une réforme de l’entreprise ). Il insiste sur la dissociation entre la fonction de propriétaire et la fonction de manager, sur les nouvelles exigences des salariés, qui ne sont plus de simples apporteurs de travail, sur la double condamnation du profit comme seule fin de l’entreprise et de l’ignorance réciproque entre les entreprises et le plan. On trouve dans son livre, pour la première fois sans doute, le mot «contestation»: l’entreprise doit rester un centre de décision autonome dans une économie fondée sur la planification indicative. Bloch-Laîné distingue le commandement et le contrôle des entreprises. À la manière de Montesquieu, formulant sa loi constitutionnelle de séparation des pouvoirs, Bloch-Laîné propose un schéma de fonctionnement, où, face au président et à son collège de directeurs (cooptation contrôlée), on trouverait une «commission de surveillance» associant le triple contrôle des syndics du capital, des syndics du personnel et des commissaires d’État, en même temps que l’institution, sur le plan national, d’une véritable magistrature économique et sociale.

D’autres industriels français ont formulé, à sa suite, des idées nouvelles sur la gestion des entreprises. Octave Gelinier, par exemple, s’est efforcé de caractériser le nouveau management (Le Secret des structures compétitives, 1966; Fonctions et tâches de direction générale , 1967). «Diriger, écrit-il, c’est obtenir un résultat par d’autres que soi et c’est aussi être responsable de ce que d’autres ont fait.» Aussi bien les tâches de direction seront-elles multiples et paradoxales: connaissance des faits, choix des objectifs, organisation des moyens, structure des responsabilités, conduite des hommes et contrôle des opérations. La partie la plus féconde de cette œuvre concerne la direction participative par objectifs et souligne, à son tour, l’impérieuse nécessité de la délégation de pouvoir.

Marcel Demonque (La Participation , 1968, en collaboration avec Yves Eichenberger) est certainement l’un des premiers industriels qui aient tenté de définir et de préciser de manière à la fois systématique et réaliste les voies et les moyens de la participation dans la gestion des entreprises. Après avoir distingué entre la participation directe, indirecte et contrôlée, ascendante et descendante, à la gestion de l’entreprise et à ses fruits, etc., il formule les principes qui commandent la mise en œuvre des structures de participation: subsidiarité et corps intermédiaires. S’il réhabilite le profit comme une nécessité technique, Demonque n’en est pas moins l’un des plus compréhensifs à l’égard de la nouvelle sociologie industrielle.

Ainsi, par des approches diverses, en vient-on à formuler, pour les affaires européennes, une révolution dans l’art de gérer les entreprises. Un grand nombre de petites et moyennes affaires, encore administrées dans le style artisanal, risquent d’être condamnées. Pour rester compétitif, le chef d’entreprise français devra d’abord se faire stratège. Raymond Sachot a formulé, en termes excellents, les principes de la nouvelle stratégie industrielle (défensive, semi-offensive, offensive). Pour survivre, il faudra passer au stade des grandes unités par des processus souples de fusion et de concentration: pas d’offensive possible, sur le seul terrain européen, en deçà du milliard de francs de chiffre d’affaires, d’un cash-flow inférieur à 30 millions, d’un réseau commercial d’une valeur inférieure à 200 millions; ce qui signifie: primauté du marketing et de l’innovation, avenir de l’ordinateur (1 p. 100 maximum du chiffre d’affaires pour être utilisable économiquement), industrialisation des fonctions de stockage et de fabrication, etc. L’entreprise de demain ne saurait être «monovalente».

2. Une science décisive: le marketing

Un nouveau style

Le marketing, dans un premier sens, peut être défini comme l’ensemble des techniques qui ont pour objet la recherche et le traitement des informations relatives au produit, au marché et au comportement des consommateurs, à la promotion des ventes, aux coûts et aux canaux de distribution, à la campagne publicitaire et au contrôle de son rendement. Par là, on voit que le marketing déborde largement la direction commerciale traditionnelle de l’entreprise, qui connaît de ses seuls problèmes internes, à partir du moment où la commande est passée: ordres de fabrication, conditions de vente, facturation, livraison, etc. En fait, le marketing consiste à connaître la situation du marché, la position des principaux concurrents, le rôle des différents produits substituables ou similaires, les potentialités de vente et leurs prévisions chiffrées, eu égard aux variations des prix, du pouvoir d’achat, des structures de répartition (géographique et socio-professionnelle) de la clientèle, des contingences affectant l’ouverture des marchés d’exportation (dévaluation, union douanière, primes ou faveurs fiscales, subventions, etc.). Le marketing c’est donc l’étude préalable de la demande et de ses motivations profondes, parfois fort différentes des mobiles conscients ou déclarés du consommateur, qui permettra d’orienter la production, de choisir entre des produits multiples, d’arbitrer les investissements relatifs à leur fabrication respective, d’orchestrer la campagne publicitaire, d’élaborer le budget des ventes en liaison avec les autres prévisions budgétaires.

Cependant, dans un sens plus aigu, comme les premiers spécialistes du marketing l’avaient relevé, cette discipline implique, de la part du chef d’entreprise et de son état-major, un état d’esprit très novateur. Ce nouveau style de management suppose, naturellement, qu’on se refuse à produire d’abord pour s’étonner ensuite, éventuellement, d’éprouver quelque difficulté à vendre. Bien au contraire, il s’agit de pressentir et de provoquer premièrement la demande, dont on a étudié scientifiquement les caractéristiques, pour mettre ensuite en fabrication les produits désirés, en les commercialisant selon les critères déterminés (conditionnement, canaux de distribution, publicité de lancement et de soutien, réseaux de représentants, conditions de facturation et de crédit, services après vente, calcul des commissions et primes aux agents de distribution, etc.). Une telle fonction dans l’entreprise moderne doit être capable d’élaborer des prévisions, avec un horizon économique de cinq à dix ans parfois, sur l’évolution de la demande et la durée de vie d’un produit (cet horizon s’est beaucoup réduit, dans la période récente, pour ce qui concerne les produits de grande consommation).

Un certain nombre de phénomènes qui expliquent l’importance actuelle du marketing peuvent être constatés: dans toutes les économies occidentales, l’offre des produits grandit plus vite que leur demande: le succès des ventes est lié à la marque et à la publicité de marque; cette politique de marque caractérise donc la plupart des grandes entreprises; la demande se transforme à la fois quantitativement et qualitativement. En effet les élasticités de la demande au revenu ne sont pas comparables selon les différents emplois en biens de consommation, périssables (denrées alimentaires), semi-durables (voitures, électroménager, habillement) ou durables, (logements). Vérifiant les lois d’Engel, l’évolution du budget français a fait ainsi apparaître une réduction de la part relative des dépenses de consommation affectées à l’alimentation et, dans une moindre mesure, à l’habillement, tandis que croissent par ailleurs, dans une proportion étonnante, les dépenses de transport, d’hygiène et de loisirs. La transformation radicale de l’appareil de distribution, la réduction de la fréquence des achats, l’expansion du crédit à la consommation, le développement, surtout dans les périphéries urbaines, de grandes surfaces de vente (supermarchés, supérettes, discount houses , etc.), ont obligé les entreprises à «provoquer véritablement le consommateur». En conséquence, l’une des caractéristiques les plus évidentes de l’évolution de la fonction commerciale dans l’entreprise depuis la fin de la Seconde Guerre mondiale s’exprime par des mutations dans la structure du prix des objets manufacturés: tandis que la part de ce coût inhérente à la fabrication industrielle – en grandes séries – tend à diminuer, les coûts proprement commerciaux (selling costs des Anglo-Saxons) ne cessent de croître. L’évolution comparée des marges bénéficiaires et de la rotation des stocks dans les petits commerces de détail et dans les grands magasins corrobore cette observation. Car, dans le même temps, l’innovation, qui était en quelque sorte un accident commercial dans l’économie du XIXe siècle, s’est établie en règle permanente. Et l’innovation touche tous les aspects de la distribution: elle a révolutionné l’emballage (devenu largement «perdu», par suite des progrès de la matière plastique notamment), le stockage (irruption des «surgelés» dans l’alimentation), le crédit (dès les années soixante-dix, on citait l’exemple du plus grand supermarché du monde, Macy’s à New York, qui connaissait une marge commerciale nette voisine de zéro et réalisait finalement ses bénéfices sur les comptes «crédit» de sa clientèle, si bien que cette entreprise, en apparence commerciale, camouflait en fait une véritable banque), l’après-vente (dans certains secteurs, tel l’automobile, il conditionne directement le chiffre d’affaires), la recherche (il n’est plus, aujourd’hui, de grande entreprise qui ne possède un service de recherches et parfois, sans considération immédiate de rentabilité, de recherches «fondamentales»).

L’exploration de l’inconscient

L’exemple le plus étonnant, sans doute, de la recherche en matière de marketing concerne les «études de motivations» qui empruntent à la psychanalyse ou à la sociologie dite «clinique». Alfred Denner a formulé, dans Principe et pratique du marketing (Delmas, 1971), toute une théorie de l’acte d’achat: «Le consommateur n’acquiert pas des objets, mais des symboles; il procède, ce faisant et de la manière la plus inconsciente, à des identifications (culte du héros, de la vedette, etc.); il exprime tout son être profond quand il consent à la dépense et non parfois sans un sentiment décisif de culpabilité.» Car dépenser, c’est une manière d’exister. Acheter, c’est au fond une certaine façon de se définir, avec tout un type d’acculturation, lié aux valeurs affectives et socio-culturelles de chacun. La règle des trois S de Dichter (subsistance, sexualité, sécurité) gouverne le comportement du consommateur, bien souvent à son insu (La Stratégie du désir, une philosophie de la vente , Fayard, 1961). Pour le service commercial de l’entreprise, l’ignorer reviendrait à s’exposer aux plus graves erreurs, y compris dans sa campagne publicitaire. Ainsi, telle marque de café en poudre a pu renoncer à vanter la rapidité de sa préparation, dans la mesure où elle culpabilisait la ménagère qui aurait craint, par cet achat, d’être jugée paresseuse par sa famille; de même pour certains potages en sachets dont il faudra compliquer artificiellement le mode d’emploi pour faire progresser les ventes. À d’autres époques ou pour toucher tel ou tel segment de marché, le déclenchement des ressorts d’achat exigeront, au contraire, une approche vantant la facilité d’accès au produit, etc. Découvrir la sexualité dans la préférence pour une marque de cigarettes, de bière ou de médicament, c’est déjà beaucoup. Mais que dire de certaines études de motivations dont il résulte, pour les produits alimentaires, que le «sucré», par exemple, est une image de marque infantile, sénile et dévirilisante ou, pour une lotion after shave , qu’il convient de la rendre un peu irritante pour obtenir les faveurs de la clientèle masculine? En fait, l’exploration de l’inconscient (y compris de l’inconscient collectif et du grégarisme: «Ne soyez pas le dernier à...») a gagné peu à peu toute la fonction commerciale, et la recherche de motivations déborde largement ce qu’on appelait, hier encore, l’étude du marché, comme en témoignent les «enquêtes de notoriété» par produits.

Qui achète? Quand, où, comment, pourquoi achète-t-on? Qu’en est-il de la répartition géographique des ventes (clientèle urbaine et rurale), de la répartition des clients par âge, sexe, profession, degré d’instruction, ancienneté, revenus? des clients potentiels? Par quels canaux de distribution faudra-t-il passer: ventes par correspondance, sur catalogue, porte-à-porte, grossistes, boutiques avec ou sans exclusivité, grands magasins? Surtout, quelles relations peut-on anticiper entre les variations du prix et celles du chiffre d’affaires, la disparition ou l’apparition d’un gros concurrent et sa propre expansion commerciale, une action promotionnelle sur les ventes ou l’utilisation rationnelle des «supports» que constituent les médias comme, plus récemment, des possibilités ouvertes par ce qu’il est convenu d’appeler le «hors-média» (mécénat, parrainage sportif, promotion sur les lieux de vente, etc.)? L’étude de la durée de vie d’un produit – son lancement, la longueur de sa phase de palier, son déclin – gouverne naturellement toute la politique d’amortissements de l’entreprise. La campagne publicitaire n’est pas sans poser à son tour d’innombrables questions techniques: quelle part du budget commercial faut-il lui consacrer, quels supports faut-il choisir et quel argumentaire, selon quelle fréquence? Il n’est plus, aujourd’hui, de gestion commerciale scientifique qui ne se pose ces questions, qui ne recherche la rentabilité comparée de ses différents produits, de ses différentes agences régionales de distribution, de ses divers modes de commercialisation et de conditionnement. Pourtant, si l’on y regarde de plus près, la promotion du marketing obéit à une évolution plus générale qui tend à intégrer dans le management moderne la totalité des sciences humaines actuellement en pleine révolution.

3. Primauté des relations humaines dans l’entreprise: la psychosociologie industrielle

La sociologie industrielle proprement dite a fait son apparition après la Seconde Guerre mondiale. Elle se situe au carrefour de trois courants fondamentaux: la psychanalyse, avec Freud, et ses prolongements actuels; l’analyse structuraliste (Lévi-Strauss notamment), dont le point de départ a été ethnologique; la dynamique des groupes surtout, pratiquement issue de l’expérience de Hawthorne, mais dont la formalisation revient à Kurt Lewin et à son école (les premières implications dans la gestion des entreprises résultent de l’avènement de la technique dite du «T-Group» américain et datent de 1946 [Bethel, Maine]).

Un nouvel univers

L’approche structuraliste fit découvrir que les ouvriers ne réagissent pas nécessairement avec logique, comme pouvaient le supposer certains patrons; que la perception est «structurante» et relative, en conséquence, à la position de chaque agent dans la structure du groupe. Le mot «profit» ne rend pas, par exemple, la même signification pour le salarié ordinaire, le syndicaliste militant, le chef d’entreprise, le directeur financier, le directeur commercial, etc. L’un peut y voir le prix d’une exploitation éhontée, d’autres la source de l’autofinancement qui garantit la pérennité de l’affaire et la sécurité des emplois, ou encore l’expansion du chiffre d’affaires qui conduira pourtant, dans certaines situations prématurées, à une baisse de rentabilité. Le monde de l’entreprise est tel que chacun le construit, et chacun y occupe, dans un organigramme de type «hiérarchico-fonctionnel» (line and staff ) une certaine place définie par un rôle (fonctions) et un statut (degré de subordination, importance des responsabilités). Les enquêtes de Stouffer sur les relations sociales dans l’armée américaine, de Mann et Baumgartel sur la corrélation, dans les entreprises des États-Unis, entre la cohésion du groupe et l’absentéisme, de Seashore sur le même sujet, de Maier sur le degré de concordance entre ce que pensent, dans les entreprises américaines, supérieurs et subordonnés, de Nancy Morse sur les sentiments de frustration et de satisfaction des executives , de Hugh-Jones, toutes les recherches sur la naissance et la propagation des rumeurs (Allport, Dold, Institut de Boston), leurs relations avec la structure des communications, avec ou sans feedback , des indications fragmentaires disent assez le travail scientifique d’exploration et de mesure des relations humaines dans le monde industriel qu’ont accompli ces pionniers. Tandis qu’une partie de ce mouvement de recherches s’est orientée vers la thérapeutique médicale (Bion, Rogers), une large tendance concerne directement le management.

Ainsi, Coch et French, travaillant à la Manufacturing Harwood Co. sur les variations de productivité consécutives à des mutations dans les postes de travail, construisant plusieurs «groupes de référence» (avec mutations ordonnées dans le style autoritaire, discutées librement, ou même dites «en participation totale», c’est-à-dire décidées souverainement par les ouvriers), constatèrent avec stupeur l’importance des écarts entre les différentes performances individuelles des membres du groupe, écarts qui tendent toutefois à s’écraser après la mutation, mais plus encore l’importance de la supériorité du rendement dans le groupe de référence «en participation totale».

La théorie des communications et du commandement

La voie était ouverte à la théorie sociologique moderne des communications et du commandement dans les entreprises. Sur le premier problème, l’expérience notoire reste celle de Leavitt, à Harvard (1963).

Travaillant sur quatre réseaux (cercle, chaîne, Y et roue), Leavitt mesure la «centralité» et la «périphéralité» d’un réseau et, partant des relations qui existent entre la structure des communications d’une part, le moral des membres et le degré du groupe d’autre part. La célèbre analyse de Leavitt débouche donc sur la dynamique du groupe comme représentation globale, capable d’induire les comportements individuels et même la préférence d’un certain type de leadership et son efficacité comparée avec des modes de commandement différents.

À la suite de Leavitt et de Bavelas, Shaw, Heise et Miller, Back, Kelley et surtout Schachter, aux États-Unis, Ardoino, en France, affineront l’analyse. Schachter, par exemple, construira une situation expérimentale permettant de suivre et de mesurer l’intensité et le volume des communications avec un «déviant» (individu ne partageant pas les normes du groupe). La communication est le moyen par lequel s’exerce le pouvoir: en raison de leur degré de cohésion et de pertinence, les groupes sociaux et donc les groupes industriels réagissent spécifiquement à toute altération extérieure de leurs normes d’équilibre. On a appris à rendre compte des mécanismes de fonctionnement d’une entreprise, grâce également à la contribution de la sociométrie (Moreno); il suffit de comparer l’organigramme officiel de l’entreprise (quand il existe) avec son «sociogramme». Ce dernier, établi à partir de questionnaires individuels et après dépouillement de la «sociomatrice», traduit aussi bien les réseaux d’affinités et de répulsions que la structure du leadership dans le groupe. À partir de là, les «dysfonctionnements» dans la dynamique de l’entreprise peuvent être expliqués (travaux de Northway, Lindzey et Goldwin). On sait même, en comparant de nombreux sociogrammes établis dans des entreprises différentes, ce qui caractérise paradoxalement l’aptitude au leader-ship (sujets introvertis dotés d’une perception aiguë de la structure du groupe). Une autre expérience célèbre, celle de Lippitt et White, limitée malheureusement à des enfants, a permis de mesurer et de comparer trois dynamiques spécifiques de commandement: autoritaire, laissez-faire et démocratique, et d’en formaliser les résultats. Nous sommes assez loin de Carnegie et de ses recettes de manipulation! Les recherches sur la déviance, la régression, l’anomie (Merton), le commandement industriel, la bureaucratie (Blau, Thompson), ont extraordinairement enrichi la science de la gestion des entreprises, et donné lieu parfois à une nouvelle théorie des organisations (March et Simon, Redl, French, et Raven...).

Un «univers physique»

Pratiquement, on en vient maintenant à considérer l’univers des relations humaines dans l’entreprise comme assez analogue à celui de l’univers physique. On s’éloigne ainsi fondamentalement d’une conception psychologique du dirigeant ou de l’ouvrier, selon laquelle le rendement résulterait seulement des aptitudes «innées» ou de l’apprentissage technique. Les types d’acculturation, par exemple la part faite par la civilisation industrielle à la mobilité sociale, à l’argent, à la responsabilité, et surtout l’analyse de la structure de pouvoir dans l’entreprise éclairent le comportement de ses membres. Si le fossé qui, jusqu’à une période récente, séparait l’administration française des grandes entreprises américaines les mieux gérées, s’est en partie comblé (au moins dans l’ordre du discours), l’absence totale dans la première de tout service de communication comme son ignorance des découvertes de la psychosociologie ont longtemps expliqué la médiocrité de certains de ses résultats.

4. Formes nouvelles de l’organisation scientifique du travail

Genèse et objet

L’organisation scientifique du travail, née au XIXe siècle, vise la plus grande productivité, celle-ci étant définie comme le rapport des résultats obtenus aux moyens mis en œuvre et, en termes économiques, la relation entre les utilités (recettes) et les coûts. De ce fait, la politique de productivité dans les entreprises connaît différentes mesures, selon qu’il y est question d’un poste ou d’un atelier de travail, d’une chaîne de montage, d’un service, d’un établissement ou de l’entreprise tout entière, ou encore d’un groupe englobant parfois plusieurs entreprises d’activités différentes. De même, on peut mesurer spécifiquement la productivité de la main-d’œuvre, du capital technique, des matières premières, de l’énergie, etc. Il est bien évident que la mesure de la productivité globale de l’entreprise complique les problèmes (ainsi, on peut améliorer la productivité en augmentant le nombre des machines et en diminuant celui des ouvriers, ou vice versa: c’est l’effet dit «de Ricardo»; mais comment juger de la productivité d’une entreprise commerciale où le chiffre, le nombre des clients, le nombre des articles débités constituent autant de paramètres?) et, par ailleurs, l’utilisation optimale des facteurs de production dans l’entreprise n’est pas sans poser des questions scientifiques redoutables solidaires de ses résultats financiers d’exploitation et de sa stratégie (en particulier concernant les investissements).

La procédure pratique intéresse les trois aspects classiques du travail industriel: les tâches définies comme un ensemble d’efforts humains dirigés vers un but spécifique; les postes , qui consistent en un agrégat de tâches, de responsabilités et d’obligations attachées à une personne; et les métiers , qui groupent une série de postes entre lesquels l’analogie autorise une seule et même analyse. L’organisation scientifique à ces trois niveaux n’a pas seulement pour objet l’amélioration du résultat financier, mais encore la prévention des accidents et la sécurité du travail, l’amélioration des conditions psychiques de l’effort humain et la satisfaction morale des travailleurs.

Aussi bien, l’organisation scientifique du travail englobe l’étude, la prévention et la prophylaxie des maladies professionnelles, la réduction systématique des accidents, de l’absentéisme ou du renouvellement non désiré des cadres, l’amélioration des rendements, compte tenu du «moral» des travailleurs. À la suite de Taylor, les travaux de Gilbreth aux États-Unis, d’organismes comme le Bureau des temps élémentaires (B.T.E.) en France, l’apparition ultérieure de la méthode M.T.M. ont participé, en leur temps, à une telle recherche.

Méthode

On procède d’abord généralement à l’analyse du poste: sa situation dans l’organigramme, la chaîne de fabrication et les circuits de montage, la description des outils et machines utilisés, les dispositifs administratifs (bons de travail, imprimés divers), les facteurs d’ambiance (éclairage, température, bruits, nuisances, poussière, odeurs, couleurs, etc.), la qualification professionnelle, le salaire des ouvriers et les primes d’intéressement concernés par le poste (primes de type dégressif, systèmes Gantt, Laugier, des points d’équivalence, etc.), les liaisons avec les postes antérieurs et postérieurs dans les processus de production, etc. La décomposition des tâches en «opérations élémentaires» est parfois assortie d’une mesure qualifiant le danger du travail en question, sa pénibilité, son degré de technicité, sa fréquence, sa stabilité, etc. Cela étant, certains spécialistes, tels les «chronométreurs», se livrent pour chaque geste à ce qu’il est convenu d’appeler une «analyse de déroulement»: chaque tâche plus ou moins complexe est décomposée en une série de mouvements et de temps élémentaires, dont Barnes a été le grand spécialiste américain. Une codification permet de caractériser la nature de chaque geste: déplacement, stockage, retard, support, etc., et de le passer, au besoin avec l’aide d’une caméra et au ralenti, au crible d’une critique extrêmement serrée. Le travail effectué par l’une et l’autre main est mesuré de manière précise. Les questions posées sont les suivantes: Quoi? est-ce bien ce qu’il convient de faire? Où? est-ce bien le lieu convenable pour le faire? Quand? ne faudrait-il pas le faire plus tôt, ou plus tard? Qui? ne devrait-on pas le confier à une autre personne? Comment? surtout, c’est-à-dire ne peut-on améliorer, réformer, abandonner la procédure actuelle, avec quels outils nouveaux, au prix de quels investissements et selon quelle rentabilité prospective? La formulation, à la suite de telles analyses, d’une nouvelle méthode de travail ou d’une réorganisation des ateliers n’est pas sans évoquer d’autres dimensions que celle de la fabrication industrielle proprement dite: il n’est pas en effet, généralement, une mais plusieurs solutions entre lesquelles les différences de rentabilité supposent des risques commerciaux (fluctuations de la demande, innovations possibles et obsolescence du matériel) et financiers (variations des taux de l’intérêt, des conditions fiscales) sans commune mesure. L’organisation scientifique du travail débouche ainsi, au niveau le plus élevé, sur la stratégie du chef d’entreprise. Elle a permis dans certains cas de décupler le rendement. Elle s’est considérablement enrichie depuis Taylor (technique des incidents critiques de Flanagan, utilisation d’appareils électroniques d’enregistrement, progrès de la comptabilité matières) et, surtout, elle a parfois conduit à l’automation. Les machines-transferts, assorties de mécanismes asservis capables de déceler et de corriger elles-mêmes les écarts aux tâches programmées (feedback ) ont révolutionné certaines branches industrielles, par exemple l’automobile, la construction aéronautique ou l’industrie alimentaire. De nouveaux rapports se sont ainsi établis entre la cybernétique, l’électronique et la psychologie. Le contrôle automatique, assorti d’un «senseur», capable de comparer les performances de la machine avec les données et les contraintes du programme et de traduire ces informations pour certains dispositifs d’ajustement, n’a pas seulement pour conséquence d’accroître qualitativement et quantitativement la fabrication mais pose aussi un redoutable problème social (réduction de la main-d’œuvre et chômage technologique). L’ergonomie, ou science des conditions physiques optimales du travail, a réalisé de tels progrès que nous savons aujourd’hui, pour chaque tâche et pour chaque poste, l’intensité et la distribution appropriées des sources lumineuses, les régimes tolérables de bruit, les couleurs toniques ou apaisantes, les moyens de lutter contre les poussières, de filtrer les odeurs et même de réduire la monotonie (travaux déjà anciens de Gantt ou de Mary Parker Follett).

Tous les processus techniques de production se trouvent ainsi assujettis à des normes scientifiques, qu’il s’agisse du planning ou de l’ordonnancement, de la maintenance des équipements, du contrôle statistique par sondages, des techniques de manutention ou de conditionnement.

5. Le contrôle de gestion comme instrument de la croissance

Recherche d’une gestion scientifique

Ce n’est donc pas par accident que sont apparus des écoles (instituts de gestion, etc.) ou des métiers (contrôleur de gestion) autrefois ignorés. La comptabilité du XIXe siècle n’était qu’une procédure d’enregistrement des informations au jour le jour (journal) ou de manière synthétique (grand livre, balance). La généralisation, dans les entreprises de quelque importance, du compte général d’exploitation, du compte de profits et pertes et du bilan, a conduit à apprécier assez grossièrement les modifications patrimoniales de l’entreprise et ses résultats financiers d’exploitation. L’élaboration du classique graphique de « point mort » (break even chart ) a permis au moins au chef d’entreprise de connaître le volume d’unités produites ou bien le chiffre d’affaires à partir duquel l’entreprise commence à être bénéficiaire (seuil de rentabilité). Ce graphique a pu être progressivement compliqué (graphique ouvert ou fermé, intégrant ou non la loi des rendements, les ruptures de dimension et les économies d’échelle, les baisses de prix consécutives à la saturation du marché, etc.). Il peut donner lieu à des appréciations stratégiques sur diverses options concernant des changements dans les charges de structure (coûts fixes) et l’existence de plusieurs politiques entre plusieurs points morts, correspondant à des capacités croissantes de production. La banalité de cette pratique ne doit pas, cependant, empêcher de mesurer le chemin parcouru. Voici une vingtaine d’années, bien des entreprises françaises de dimensions modestes l’ignoraient encore. Aussi extravagante que puisse paraître cette observation, il existait certaines petites entreprises qui «tournaient», faute de contrôle de gestion approprié, en faisant chaque année du déficit et qui ne s’en doutaient pas! Engagées dans un inévitable processus de décapitalisation, par ignorance des moyens scientifiques de contrôle, esprit de routine, encadrement traditionnel, absence du marketing et refus de l’innovation, elles se flattaient parfois de réduire le déficit au fil des exercices comme le signe d’une gestion rationnelle! C’est d’abord qu’elles ignoraient exactement leurs véritables prix de revient. Elles ne disposaient, en fait, d’aucune comptabilité analytique leur permettant de les connaître.

La comptabilité de gestion n’est plus le seul métier du comptable (qui n’a pas toujours reçu la formation nécessaire pour l’utiliser): elle est devenue un des instruments favoris de la direction, soit qu’elle fournisse des informations comparatives sur l’évolution de la trésorerie, des stocks, l’indépendance financière, la rentabilité générale ou la rentabilité relative des diverses fabrications, le rendement des investissements, etc., soit qu’elle mesure, par rapport à une norme de référence visée par l’état-major de l’entreprise, les résultats obtenus et cela de manière différentielle selon les services (écarts entre budgets ou prévisions, d’une part, et résultats de l’exercice, d’autre part). Le simple et classique «tableau de bord» du chef d’entreprise, constitue déjà un bon instrument; il dispose de toute une batterie de ratios financiers capables de renseigner la direction par une série de «clignotants» analogues à ceux qu’utilisent les responsables de l’économie nationale: cote d’alerte du taux d’activité, du chiffre d’affaires par produit, du fonds de roulement, de l’état des différents stocks de matières premières, d’encours, de produits finis, d’emballages, situation des carnets de commande, évolution des différentes marges (marges brutes et marges nettes par produit), importance des charges de structure, du cash-flow, de l’autofinancement, de la fiscalité, situation du personnel, de son encadrement, de son état d’esprit, informations concernant la conjoncture et l’évolution du marché.

Cependant, l’élaboration d’une véritable comptabilité analytique [cf. COMPTABILITÉ ANALYTIQUE] n’est pas sans poser des problèmes théoriques difficiles, indépendamment des obligations légales concernant la tenue et la présentation des comptes de l’entreprise: faut-il ou non ventiler les frais fixes par «centres de coûts» ou par produits et choisir, en conséquence, une «comptabilité par sections» (homogènes ou autonomes, c’est-à-dire abstraites et fictives), plutôt qu’une «comptabilité à coût direct» (direct costing ) de type américain? Si on opte pour la première, quels critères de ventilation des charges fixes et d’affectation aux produits des charges de sections faut-il adopter: prorata du chiffre d’affaires, locations prédéterminées à coûts standards, contraintes commerciales? Devra-t-on placer à part les frais de distribution, aujourd’hui décisifs? La mise en place d’une «comptabilité marginale» (De Bodt, Bouchet) est-elle possible? La relation capitale entre coûts, volume d’activité et rentabilité sera-t-elle mise clairement en évidence? Autant de problèmes qui donnent lieu à des solutions nécessairement arbitraires et controversées. Il faut bien voir en effet que telle entreprise en déficit deviendrait rentable, avec les mêmes coûts et la même organisation, si son chiffre d’affaires se trouvait accru dans une proportion définissable; que telle autre, dont la gestion peut être brillante, tomberait rapidement en faillite si tout à coup elle contrôlait 10 p. 100 de moins du marché. Pour passer de l’une à l’autre situation, il suffirait peut-être d’un investissement décisif et, bien souvent, relevant du marketing, mais encore conviendrat-il de mesurer le risque, de peser longuement l’audace raisonnée du pari et de déterminer le mode convenable de financement: émission d’obligations, augmentation de capital, endettement bancaire, réalisation de stocks, avec aménagement rationnel des actifs ou fusion tout simplement. Sans une connaissance précise des prix de revient, il ne saurait être question d’apprécier la rentabilité: et comment, dès lors, prétendre à une gestion scientifique? N’oublions pas que le ratio de rentabilité nette (rapport du bénéfice net d’exploitation aux capitaux investis) peut varier fortement d’un pays ou d’un marché géographique à un autre, d’un secteur d’activité à un autre, comme d’une entreprise à une autre. Le contrôle de gestion, à partir des «ratios pilotes» de la branche industrielle considérée (quand ils existent), fournit déjà de précieuses indications et prépare d’inévitables accords et concentrations (groupements d’intérêt professionnel, fusions).

Objet et méthode

Mais ce qu’on est convenu d’appeler le «contrôle budgétaire» prête parfois à confusion. En premier lieu, parce que le contrôle de gestion consiste à confronter des prévisions et des résultats pour dégager des écarts caractéristiques (sur le volume, sur les divers éléments de coûts, sur les marges, etc.), étant bien entendu que la constatation de ces écarts devra permettre à la direction d’apprécier de manière discriminatoire les responsabilités des différents services. Cependant, il ne suffit pas de constater la progression globale ou le recul général de l’entreprise. En second lieu, parce qu’il ne saurait être question de contrôle budgétaire sans décentralisation des responsabilités: comparer les prévisions d’un seul avec les résultats obtenus par le plus grand nombre n’aurait guère de portée pratique et risquerait, bien souvent, sur le plan psychologique, de rester inopérant. Les prévisions appellent donc une véritable négociation entre des perspectives spécialisées: celle de la fabrication, celle du commercial, celle de l’administratif. Le contrôle moderne de gestion est donc en somme: l’impératif de la prévision, plus l’impératif de la décentralisation, plus l’impératif de la transaction entre les divers services. La politique dite «de participation» ou encore «par objectifs» est à ce prix.

D’autres aspects se trouvent concernés par le contrôle de gestion, par exemple toute la stratégie des investissements. Ses formes sont diverses: investissements en biens d’équipement, en biens incorporels (par exemple par l’achat d’une licence ou d’un brevet, le lancement publicitaire d’un nouveau produit, l’étude d’un marché ou les investissements «humains»). Ses inspirations peuvent être d’ordre technique (amortissements), financier, fiscal, stratégique, etc. Le mode de calcul de la rentabilité de ces investissements n’est plus, cependant, livré à l’empirisme. La nécessité de tenir compte de l’échelonnement des annuités d’amortissement par le biais de l’actualisation, de la dépréciation monétaire, de certaines plus-values conjoncturelles, par la réévaluation des bilans, surtout celle de la rentabilité comparée de plusieurs projets d’investissements concurrents, a conduit à des techniques rigoureuses: méthode du flux net de liquidités actualisées (discounted cash-flow ), du profit actualisé au taux d’intérêt du marché (present value method ), du «minimum adverse», inventée en 1958 par Terborgh, bilans consolidés, etc. Les contraintes relatives à l’obsolescence (la plupart des outillages, en raison de la vitesse foudroyante du progrès technique, seront abandonnés avant d’être usagés), à la transformation des marchés et à l’ouverture de la concurrence, au recrutement de la main-d’œuvre et à certains de ses goulets d’étranglement pour la main-d’œuvre qualifiée compliquent les problèmes.

Aussi bien retrouve-t-on les mêmes exigences de la rigueur scientifique dans d’autres domaines, tel celui de la gestion des stocks. Pour mentionner seulement ici les recherches récentes («flux tendus», «juste à temps»), voici longtemps qu’il s’agit de connaître plus et mieux que les classiques méthodes d’évitement de la rupture de stocks, c’est-à-dire leur véritable gestion économique. La détermination rationnelle du coût minimal ne prend pas seulement en considération les différents éléments de la courbe (coûts de commande et coûts de possession), mais encore des facteurs spéculatifs, de nature conjoncturelle, et des contraintes techniques (moins-values ou plus-values selon qu’il s’agit de matières périssables ou de produits susceptibles d’être démodés, ou de vins, par exemple, pour la seconde éventualité). C’est ainsi tout l’univers des «méthodes quantitatives» qui se trouve désormais concerné par la gestion: la programmation linéaire, qui permet d’optimiser la coordination de programmes différents avec des contraintes diverses de volume, d’emploi ou de coûts; l’échantillonnage, utilisé pour apprécier la clientèle potentielle; les modèles d’inventaires; la théorie des jeux, par laquelle on choisira dans une situation de compétition la stratégie optimale; la méthode P.E.R.T. (ou D.E.M.O.N.) qui autorisera, dans l’ordre le plus économique d’une série d’opérations complexes de production, la connaissance du «sentier critique»; les techniques de «simulation», permettant de tester, sur des «modèles réduits», l’efficacité de diverses politiques; la théorie moderne de la décision, enfin, formulée en particulier par Schlaifer à la Harvard Business School, pour déterminer la politique la plus économique dans l’hypothèse ou les informations sont données sous une forme probabiliste. Cette rapide énumération est loin d’être exhaustive. Pratiquement, il est essentiel de retenir le fait historique majeur des années soixante, à savoir l’apparition de l’ordinateur comme instrument privilégié de gestion, et l’extraordinaire essor de l’informatique.

6. L’informatique et la gestion intégrée

Un avènement

L’introduction de l’expression «informatique» dans le dictionnaire de l’Académie française date seulement de 1966.

Depuis cette époque, l’informatique a envahit sans exception tous les aspects de la gestion: du marketing, où elle permet d’instituer une centralisation des données, mémorisant un volume colossal de renseignements relatifs au marché, jusqu’à la technologie pure, ou encore l’arbitrage entre un très grand nombre de programmes d’investissement, en passant par la gestion du personnel, des clients, des stocks, de la trésorerie y compris le service du contentieux (automatisation des informations relatives à la jurisprudence), le financement (gestion automatisée des dossiers de prêts intégrant des calculs complexes d’actualisation et d’échéanciers), l’ordonnancement et le planning de fabrication, etc. Cette extension étonnante a provoqué un nouvel état d’esprit chez les managers, en même temps qu’une promotion de cadres d’un nouveau type.

L’entreprise est un centre autonome de décisions élaborées à partir d’une masse considérable d’informations. L’informatique lui a permis à la fois d’enregistrer et de mémoriser un volume quasi illimité d’informations, de les communiquer à une vitesse incroyable et surtout de décider rationnellement, selon une démarche rigoureusement logique, dérivée de l’algèbre de Boole (la résolution des équations booléennes se réduisant pratiquement à une simple comparaison en termes de et, de ou et de non ). Mais l’ordinateur modifie aussi profondément la conception même de la gestion des entreprises, dans la mesure, comme l’écrivait J. Lesourne dès 1960, où il provoque «une répartition des fonctions, des tâches, une certaine forme d’organisation telle que les personnes qui sont le nœud de ce réseau prennent de bonnes décisions, soient motivées et travaillent dans le cadre des objectifs de l’entreprise». L’informatique constitue donc également un système d’organisation; et si l’ensemble des matériels que les Américains baptisent littéralement la «quincaillerie» (hardware ) est parvenu très vite à une perfection remarquable, la définition de la politique des «règles du jeu», des programmes, des contraintes et des normes internes à l’entreprise, bref le software (les langages d’utilisation des machines, en somme), est encore riche d’avenir.

Celui de la «gestion intégrée» est donc largement ouvert. Si on entend par là non seulement l’enchaînement automatique des diverses phases du circuit de l’information, mais encore et surtout la coordination de fonctions auparavant indépendantes dans l’entreprise, l’intégration, à partir de fichiers rassemblant toute l’information disponible, de supports de mémoire adaptés à la nature de ces fichiers et du recours, enfin, à des terminaux internes et externes à l’entreprise, on aboutit au contrôle organique total et harmonisé non seulement d’une entreprise et même d’une entreprise géante, mais encore par exemple d’un holding réunissant plusieurs entreprises de vocations différentes. Ainsi, la gestion intégrée favorise-t-elle à la fois l’assujettissement des méthodes quantitatives (recherche opérationnelle) en univers aléatoire (calcul des probabilités), en même temps qu’elle autorise des concentrations d’unités sans précédent dans l’histoire industrielle.

7. Nouvelles méthodes

La fin du XIXe siècle a été marquée par la révolution industrielle, accompagnée de l’éclosion et du développement de l’entreprise capitaliste. La seconde moitié du XXe siècle a connu une révolution managériale qui modifie nos conceptions de l’entreprise. Alors que l’étendue et les conséquences précises de cette révolution sont encore partiellement méconnues, ses causes sont claires. En effet la révolution managériale a répondu à la nécessité de mieux maîtriser le rythme et l’amplitude accrus du changement dans un environnement technologique, économique, politique, social, etc. Pour survivre, les entreprises ont dû s’adapter à des contraintes plus complexes, éviter des menaces plus dangereuses et saisir plus rapidement des occasions plus prometteuses. La gestion s’est professionnalisée, la technostructure a remplacé le «propriétaire-gestionnaire» (Galbraith, 1974) et la main visible du manager s’est substituée à la main invisible du marché (Chandler, 1977).

Commencé aux États-Unis, ce mouvement a rapidement conquis l’Europe du Nord et s’est ensuite étendu à l’ensemble du monde occidental. Il se manifeste essentiellement par des comportements différents et l’adoption de nouveaux modes et méthodes de gestion.

L’évolution de l’environnement

L’évolution récente de l’environnement peut être divisée en deux périodes. Les années soixante constituent l’apogée de la période de reconstruction. En même temps apparaissent les germes de la crise qui commencera avec les années soixante-dix pour se prolonger, sous des formes diverses, jusqu’à la période actuelle.

La première décennie est marquée par une forte croissance des économies occidentales; les marchés se mondialisent; de nouveaux secteurs, tourisme et loisirs, hygiène et santé, sont en pleine expansion; les technologies avancées, électronique, informatique, biochimie, sont exploitées industriellement, etc. Mais parallèlement, les premiers nuages se forment. Sur le plan international, de nombreux pays en voie de développement accèdent à l’indépendance politique et prennent conscience de leur force; les pays de l’Est manifestent leur intention de participer à une éventuelle guerre économique sur les nouveaux marchés; le Japon rejoint le peloton des grandes puissances économiques. Dans leurs propres pays, les entreprises occidentales doivent affronter les groupements de consommateurs, les mouvements écologistes, les réactions politiques et celles du public au pouvoir et à l’influence du milieu des affaires, les pressions pour une plus grande responsabilité sociale... Enfin, les entreprises sont également contestées de l’intérieur: crise de l’encadrement pour une participation réelle et un style de management s’appuyant sur le consensus, exigences accrues en faveur de l’enrichissement des tâches, mouvement vers la démocratie industrielle.

Au cours des années soixante-dix, l’orage éclate. Les pays en voie de développement producteurs de matières premières, et notamment d’énergie, exercent leur pouvoir; le Japon fait école, surtout dans le Sud-Est asiatique, et la concurrence des nouveaux pays industriels (les «N.I.C.», newly industrialized countries , ou «A.D.C.», advanced developing countries ) devient extrêmement sévère. La forte croissance se déplace vers certains pays de l’Est et vers les pays nouvellement industrialisés. La Corée, Singapour ou le Brésil accèdent en quelques années à un état industriel que nous avons mis des siècles à atteindre. La carte économique du monde est bouleversée: les nations industrielles et le monde occidental ne dominent plus inconditionnellement l’économie mondiale. Certaines de ces nations, ayant à subir, d’un côté, la pression des nouveaux pays sur les secteurs traditionnels de leur économie et, de l’autre, la pression des technologies avancées américaines et japonaises, régressent en termes relatifs ou absolus; on parle alors de pays moins prospères («L.P.C.», less prosperous countries ).

Au sein des pays occidentaux la situation ne s’améliore pas. Les consensus, politiques surtout, sont de plus en plus difficiles à obtenir alors que, paradoxalement, les marges de manœuvre se réduisent. Les gouvernements éprouvent des difficultés à imposer les choix nécessaires, car leur équilibre est de plus en plus précaire, soit qu’ils aient perdu les grandes majorités sur lesquelles ils s’appuyaient, soit que des crises profondes aient mis en cause la légitimité de tout pouvoir politique.

La crise économique n’a pas entamé, bien au contraire, la vigueur des divers mouvements contestataires. Les réactions apparues au cours des années soixante s’amplifient. La crise de l’énergie, par exemple, aurait pu limiter l’ardeur des écologistes; en fait, il n’en a rien été. Les consommateurs réclament une qualité de produits et de services que les Japonais arrivent à satisfaire mieux, plus vite et à un coût inférieur.

Au sein des entreprises, une nouvelle éthique du travail, nourrie aux explosions de la fin des années soixante, se généralise. Tout en conservant certaines caractéristiques traditionnelles, le travail est de plus en plus considéré comme un moyen de se réaliser individuellement et collectivement. Les revendications pour la participation incluent maintenant les orientations stratégiques. Dans ces conditions, le management devient plus conflictuel. La légitimité interne et externe de l’entreprise cesse de reposer uniquement sur des considérations technico-économiques; elle doit se fonder également sur la maîtrise de variables de comportement et de variables sociopolitiques. La complexité augmente avec le nombre de variables à maîtriser; l’erreur est alors plus facile et plus fréquente, d’autant que l’environnement se révèle plus difficile à contrôler, que les facteurs sociopolitiques peu familiers aux managers prennent une importance accrue et que les ressources sont de moins en moins disponibles. Enfin, alors que dans la période précédente la croissance effaçait ou minimisait l’impact de l’erreur, celui-ci est pleinement ressenti de nos jours: l’entreprise ne peut plus se contenter, pour assurer son succès ou même sa survie, d’optimiser deux ou trois variables. Les défis qu’elle doit relever appartiennent à une nouvelle problématique.

L’évolution de la problématique

La rentabilité résulte du jeu complexe de variables plus ou moins maîtrisables. On est loin cependant de la main invisible et de la domination absolue du marché qui devrait logiquement engendrer des mouvements browniens dans le monde des entreprises. Le plus souvent des mains très visibles, reflets d’attitudes volontaristes, ont cherché à structurer les marchés et ont en partie réussi. Les mécanismes du marché et la recherche du profit maximal – dans la mesure où le concept a une signification opérationnelle – n’expliquent que partiellement le comportement observable des firmes. Il ne faut pas figer les finalités de l’entreprise, et, partant, sa rationalité et sa légitimité. Les sociétés socialistes du nord de l’Europe ou les sociétés néo-capitalistes ont incité les entreprises à chercher de nouvelles raisons d’être. Les pressions que nous avons décrites précédemment s’exercent dans le même sens. Les exigences sont à la fois extérieures et intérieures à l’entreprise; elles sont de type économique, technologique et informationnel, mais aussi et de plus en plus de type sociopolitique, et de comportement. Les entreprises doivent réaliser des performances satisfaisantes sur tous ces plans. Si notre analyse des pressions est correcte, c’est leur seule chance de survie. Dès lors, la problématique change considérablement. La figure 1 permet d’illustrer de manière très simplifiée son évolution.

Jusqu’au milieu des années soixante, dans la plupart des entreprises, le problème était de se situer par rapport à l’axe vertical, celui des performances, sur les variables dures: l’économie, la technologie ou la maîtrise de l’information. La survie était garantie par un niveau de performances satisfaisant sur cet axe.

La fin des années soixante a révélé la nécessité d’atteindre des performances acceptables sur l’axe horizontal, celui des variables soft : sociopolitique et de comportement. Les années soixante-dix l’ont confirmée. La problématique était celle de l’acceptation sociale de l’entreprise, de son image publique, mais aussi de la contestation au sein même de l’entreprise. Des législations ont été adoptées qui contraignent les entreprises à intégrer certaines de ces variables dans leur gestion. Les lois sur la pollution, sur la restauration des sols, sur l’équilibre entre sexes ou races dans l’emploi, sur la participation et le partage du pouvoir en sont des exemples significatifs; les lois sur le bilan ou l’audit social laissaient entrevoir d’autres exigences. De toute façon, le défi de ces dernières années comme de la décennie en cours est celui du management de l’interface variables dures/variables soft , comme permet de le voir une rapide analyse des quatre zones repérées dans la figure 1.

Dans la zone A, les performances sont toutes inférieures à la moyenne. La survie des entreprises se trouvant dans cette situation est aléatoire, car elles ne bénéficient d’aucune protection au cas où le jeu concurrentiel les pousserait hors du marché. Les ressources humaines ou financières se mobiliseront difficilement pour leur permettre de survivre.

Dans la zone B, les performances économiques et technologiques sont privilégiées. Les entreprises peuvent se maintenir dans cette zone aussi longtemps que les pressions sociales et politiques ou les revendications internes n’entament pas les performances économiques. Dès que ces dernières, quelle que soit la raison, se détériorent, l’entreprise risque de se trouver dans la zone A. Elle est alors prise dans le cercle vicieux de l’entropie: conflits sociaux et politiques, perte de contrats, accroissement des coûts, baisse de la rentabilité, investissement réduit, à nouveau conflits sociaux... Ce processus de dégradation bien connu a déjà frappé nombre d’entreprises prospères au cours de ces dernières années. La localisation dans cette zone ne peut être que passagère, et il convient de consolider les performances sur les variables dures par des investissements sur les variables soft .

La zone C ressemble fort à la zone B, mais avec un point de départ différent. En C, en effet, ce sont les performances non économiques qui ont été privilégiées. Malheureusement, le faible niveau des résultats économiques ou technologiques ne permettra pas aux entreprises se trouvant dans cette zone de poursuivre longtemps leurs efforts sur les variables soft . La pression des variables économiques ou technologiques va entraîner une réduction des performances de comportement ou sociopolitiques et l’entreprise se trouvera en zone A, amorçant le processus qui entraînera sa disparition.

Seules les entreprises situées dans la zone D ont de bonnes chances de survie. Encore celle-ci est-elle conditionnée par l’existence de capacités d’adaptation suffisantes pour aborder les chocs d’environnement extrêmement évolutifs, et de ce que I. Ansoff, en 1979, a appelé les «surprises stratégiques».

Existe-t-il des méthodes de gestion qui permettent de se situer plus sûrement dans la zone D, c’est-à-dire de mieux garantir la survie?

L’évolution des méthodes de gestion

Historiquement, on peut distinguer quatre grandes phases dans l’évolution des méthodes de gestion. La compréhension de chacune d’entre elles sera facilitée par l’utilisation d’un schéma simple (fig. 2).

Comme nous l’avons vu, l’entreprise est en relation constante avec son environnement: elle en subit les pressions, mais en tire également ses «entrées» (inputs ) sous forme de matières premières, de force de travail, de capitaux, etc., pour les transformer grâce à un processus précis et les restituer en «sorties» (outputs ) sous forme de produits, de services et de performances, ces dernières constituant les retombées économiques, financières, techniques, sociales ou politiques de l’activité.

La figure 2 permet de mettre en valeur les différences existant entre les quatre phases.

Dans une première étape, les méthodes de gestion s’attachent surtout au processus de transformation qui commande entrées et sorties. Les grandes fonctions, finance, vente, personnel, dépendent de la production; la recherche et développement (R. & D.) est plus centrée sur le processus que sur les produits. La principale préoccupation des managers, des hommes de production en majorité, est l’efficience (efficiency ), c’est-à-dire l’amélioration du rapport sorties/entrées.

La deuxième étape est dominée par les outputs . C’est le règne du marketing, qui module l’entreprise pour une adaptation plus étroite aux besoins des consommateurs. La R. & D. conçoit les produits en fonction de la demande, évaluée par le marketing; processus de transformation et inputs doivent suivre. Par rapport à la première phase, démarche et mode de pensée sont inversés. Les managers sont préoccupés par l’efficacité (effectiveness , C. Barnard, 1938), rapport des résultats réels aux résultats désirés. Dans ce début d’adaptation de l’entreprise aux exigences de l’environnement, les managers européens éprouvent plus de difficultés que les Américains; ils mettent à peu près dix ans de plus pour franchir cette étape et intégrer cette nouvelle dimension.

La troisième phase ne sera atteinte qu’au moment de la prise de conscience des interdépendances entre les composants du système (entrées, sorties, processus de transformation) et entre l’entreprise et son environnement. Les managers «inventent» la planification stratégique, qui diffère de la planification à long terme (long range planning ), essentiellement extrapolative. C’est également au cours de cette phase que les managers réalisent l’importance de la psychosociologie des organisations.

La quatrième phase, que vivent les entreprises aujourd’hui, est celle de l’intégration des apports de la psychosociologie des organisations aux concepts de la stratégie. Les entreprises empruntent aussi à la sociologie, aux sciences politiques et à la philosophie du droit pour résoudre leurs problèmes de pouvoir et de légitimité. Le rapport Sudreau (1975) est très convaincant à cet égard. Depuis le milieu des années soixante-dix, nous sommes entrés dans l’ère du management stratégique (Ansoff, 1976).

Au cours des deux dernières phases, les méthodes de gestion se sont développées de manière spectaculaire. Certes, le cadre de la planification stratégique de la fin des années cinquante est toujours en place: analyse de l’évolution des différentes dimensions de l’environnement, analyse des ressources ou capacités de l’entreprise, analyse de l’adéquation et des interactions entre capacités et évolution de l’environnement. Mais, depuis, chercheurs et praticiens se sont efforcés de remplir ce cadre, faisant appel aux sciences exactes et aux sciences humaines. Les premiers efforts ont porté sur les variables dures, puis les méthodes ont été enrichies pour intégrer les variables soft .

Avant de pouvoir saisir la complexité du management d’une entreprise opérant sur plusieurs marchés avec plusieurs produits, il a fallu mieux cerner les mécanismes présidant à l’échec ou au succès d’un domaine d’activité isolé. Sur ce dernier point, les progrès les plus marquants ont été réalisés grâce à l’exploitation systématique de l’effet d’apprentissage (W. B. Hirschmann, 1944) par le Boston Consulting Group. Le B.C.G. (1971) a réussi à étendre l’application de cet effet à l’ensemble des coûts de la valeur ajoutée d’un produit/marché, faisant apparaître l’effet d’expérience. Cet effet, observé statistiquement, met en évidence le fait que les coûts baissent d’un pourcentage constant chaque fois que la production cumulée (expérience) double, qu’il s’agisse d’une entreprise ou de l’ensemble du domaine d’activité (industrie). Les raisons en sont multiples: accroissements de productivité, économies d’échelle, évolution technologique des processus et des produits, transferts d’expérience... La baisse des coûts n’est pas automatique mais dépend de l’action des managers. Constater que l’expérience joue dans un domaine d’activité conduit à choisir des politiques de pénétration de marché, de prix et d’investissement spécifiques. Ces politiques ont été considérablement affinées dans le cadre du modèle P.I.M.S. (profit impact of market strategy ) du Strategic Planning Institute. L’observation de mille huit cents domaines d’activité stratégique sur plusieurs années montre que les caractéristiques du marché servi, celles du domaine lui-même et la concurrence expliquent 80 p. 100 du succès ou de l’échec d’un domaine. Rentabilité et cash-flow net sont, en grande partie, fonction du jeu complexe de neuf variables: l’intensité capitalistique, la productivité, la part de marché et la part relative, le taux de croissance du marché, la qualité des produits et services, la capacité d’innovation et de différenciation, l’intégration verticale, le contrôle des coûts et l’effort stratégique consenti. L’intérêt du modèle est de permettre de simuler la sensibilité des domaines d’activité aux manipulations sur les variables. Il permet également d’évaluer le succès potentiel d’une activité, et donc s’il convient ou non de la développer. Ces modèles sont d’autant plus utiles que les activités à gérer sont nombreuses. Ils aident le manager à gérer son portefeuille d’activités.

Le plus souvent, les entreprises opèrent sur plusieurs marchés avec plusieurs produits. La conquête de nouveaux marchés, le lancement de nouveaux produits et la diversification ont été des moyens pour accroître la flexibilité. S’est alors posé le dramatique problème de la gestion de la diversité, que le B.C.G. a proposé de résoudre en classant les activités par rapport à deux critères: celui de la part de marché, indicateur de la position concurrentielle, et celui du taux de croissance, indicateur de l’intérêt du domaine. On obtient ainsi quatre types d’activités: dilemmes, étoiles, vaches à lait et poids morts (tabl. 1).

Cette matrice permet de diagnostiquer l’équilibre financier de l’entreprise et d’évaluer la répartition de ses activités; elle permet aussi d’élaborer des stratégies de rééquilibrage. Mais l’utilisation de la matrice est fortement limitée par la réduction de la richesse des analyses d’environnement et des capacités, à deux variables seulement. On conçoit que les entreprises préfèrent les matrices de politique directionnelle qui s’appuient sur plusieurs variables hard et soft (tabl. 2).

On trouvera dans le tableau 3 une liste non exhaustive des variables susceptibles d’être retenues pour apprécier l’intérêt du domaine et les capacités concurrentielles de l’entreprise.

Les variables soft introduisent une certaine subjectivité dans les analyses. Mais on a vu apparaître des modèles destinés à rendre plus objective l’appréciation de ces variables, comme en témoignent l’application des analyses multicritères à l’évaluation du risque politique (Rummel et Heenan, 1978), ou l’étude de l’influence du taux de syndicalisation sur la rentabilité (S.P.I., 1977). Cette modélisation n’est pas une fin en soi, elle n’est qu’une aide à la décision qui permet de mieux réaliser l’interface entre les deux types de variables. Cette tendance, observée dans les processus de décision, se généralise pour la mise en œuvre et le contrôle. Deux méthodes, dans ces domaines, ont rencontré un succès certain: la budgétisation à base zéro (Phyrr, 1973) et la recherche évaluation (Weiss, 1972). Toutes deux se proposent, dans leurs champs d’application respectifs, d’accroître la flexibilité des entreprises pour une meilleure gestion de la diversité, et reposent sur l’exploitation des interrelations entre variables hard et soft .

Encyclopédie Universelle. 2012.

Игры ⚽ Нужно решить контрольную?

Regardez d'autres dictionnaires:

  • gestion — [ ʒɛstjɔ̃ ] n. f. • 1481; lat. gestio, de gerere → gérer 1 ♦ Action de gérer (les affaires d un autre, et par ext. ses propres affaires). La gestion d un patrimoine, d une fortune. Gérant responsable de sa gestion. ⇒ gérance. Avoir la gestion des …   Encyclopédie Universelle

  • ENTREPRISE — ON a souligné l’autonomie grandissante qu’ont pris les problèmes de l’entreprise dans les années quatre vingt. L’économie de l’entreprise en particulier s’est érigée en science. On a avancé des raisons: mondialisation des phénomènes économiques,… …   Encyclopédie Universelle

  • Gestion De La Qualité — La gestion de la qualité est l ensemble des techniques d organisation qui concourent à l obtention d une qualité dans le cadre du pilotage de la production de biens ou de services. La notion de qualité est une notion a priori subjective qui… …   Wikipédia en Français

  • Gestion de la qualite — Gestion de la qualité La gestion de la qualité est l ensemble des techniques d organisation qui concourent à l obtention d une qualité dans le cadre du pilotage de la production de biens ou de services. La notion de qualité est une notion a… …   Wikipédia en Français

  • Gestion de qualité — Gestion de la qualité La gestion de la qualité est l ensemble des techniques d organisation qui concourent à l obtention d une qualité dans le cadre du pilotage de la production de biens ou de services. La notion de qualité est une notion a… …   Wikipédia en Français

  • Gestion De Contenu — La gestion de contenu (en anglais Enterprise Content Management : ECM) vise à gérer l ensemble des contenus d une entreprise. Il s agit de prendre en compte les informations sous forme électronique, qui ne sont pas structurées, comme les… …   Wikipédia en Français

  • Gestion de documents multimédia — Gestion des ressources numériques La gestion des ressources numériques (traduit de l anglais Digital Asset Management, DAM) couvre l alimentation, l annotation, le classement, le stockage et la recherche de ressources numériques, comme les photos …   Wikipédia en Français

  • Gestion des ressources humaines — La gestion des ressources humaines (la GRH) est un ensemble de pratiques du management ayant pour objectif de mobiliser et développer les ressources humaines pour une plus grande performance de l organisation. C est une activité qui doit tendre à …   Wikipédia en Français

  • Gestion de la qualité — On nomme gestion de la qualité les techniques d organisation concourant à rendre conforme à un standard la production de biens ou de services. La notion de qualité est subjective, mais peut se quantifier dans l entreprise par une mise en… …   Wikipédia en Français

  • Gestion de projet — La gestion de projet (ou conduite de projet) est une démarche visant à organiser de bout en bout le bon déroulement d’un projet. Lorsque la gestion de projet porte sur un ensemble de projets concourant à un même objectif, on parle de gestion de… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”